Este artigo é uma atualização. Em março de 2025, escrevi a primeira versão deste texto logo após a explosão das ferramentas de vibe coding e a viralização das imagens no estilo Ghibli. Um ano depois, muita coisa mudou — e muita coisa que eu disse se confirmou. Essa é a versão 2026: com novos argumentos, novos exemplos e uma visão atualizada de quem passou o último ano construindo com IA todos os dias.
O que mudou em um ano
Em 2025, a discussão girava em torno de v0, Cursor e Lovable — ferramentas que geravam código a partir de prompts. Do outro lado, artistas reagindo à viralização de imagens no estilo Ghibli geradas pelo ChatGPT.
Em 2026, a conversa mudou de nível. Claude Mythos foi anunciado encontrando vulnerabilidades severas em sistemas operacionais. O Gemini 3 trouxe a família Nano Banana para geração de imagens profissionais em 4K. A OpenAI já está no GPT-5.4, lançou o Codex como agente autônomo de coding e o Operator para usar computadores. A Anthropic lançou Claude Cowork — IA que executa múltiplas tarefas em paralelo, autonomamente.
O hype migrou de "IA que sugere código" para "IA que executa tarefas end-to-end". Y Combinator reportou que 25% das startups do batch Winter 2025 tinham codebases 95% geradas por IA. "Vibe coding" virou verbete no Collins Dictionary.
A dúvida é mais legítima do que nunca. Mas será mesmo que a tecnologia vai extinguir nossas profissões?
Passei o último ano testando os limites do que conseguimos fazer com as IAs — não só gerando código ou imagens, mas construindo ferramentas internas, pipelines de desenvolvimento e fluxos de trabalho inteiros com agentes de IA. E, a partir disso, quero compartilhar minha perspectiva atualizada — não como futurista, mas como alguém que lidera um time de engenharia e convive com essa transformação todos os dias.
A mudança é inevitável. Evolução, entretanto, é opcional
Na versão anterior eu argumentei que a necessidade por profissionais excelentes nunca desaparece, usando exemplos de Gutenberg, automóveis e internet. Essa tese continua verdadeira — mas agora o limiar subiu. O que antes era "aceitável" passa a ser "substituível". E isso não é teoria: vi acontecer no último ano em times ao meu redor.
O padrão é claro: a tecnologia não elimina a necessidade humana que estava por trás da profissão. Ela elimina o meio ineficiente de atender essa necessidade. Quem se apega ao meio, desaparece. Quem entende a necessidade, evolui.
Não é o fim do trabalho — é o fim do repetitivo
As tarefas repetitivas que eu descrevi em 2025 como "desaparecendo"? Muitas já desapareceram.
Se você só replica estilos de desenhos em fotos, faz CRUD sem pensar em UX, ou não pensa constantemente em formas de entregar um trabalho melhor — sinto dizer: seus dias estão contados.
Tem uma ironia bonita aqui: a inteligência artificial está forçando o mercado a valorizar mais a inteligência humana. O pensamento crítico, a empatia no design, a capacidade de traduzir uma necessidade vaga em algo concreto — essas habilidades nunca foram tão valiosas.
A IA ainda não tem alma (e talvez nunca tenha)
Quantas músicas dá pra tocar com a sequência G, D, Em, C? Centenas. Milhares. Uma IA pode gerar uma delas em segundos. Mas será que ela consegue fazer o que Lenine fez em "Todas elas juntas num só ser" — costurando referências de Jacques Brel, Martinho da Vila, Chuck Berry, Paulinho da Viola e Caymmi num mesmo verso, com humor, afeto e uma malícia que só existe em quem viveu essas referências?
A IA opera por correlação estatística. Ela sabe que certas palavras aparecem juntas, que certos acordes funcionam em sequência, que certos traços compõem um estilo. Mas ela não sabe por que isso importa. Não sente a tensão de um acorde menor depois de uma progressão maior. Não entende o peso de uma pausa no verso certo.
Arte é expressão. E isso a IA continua longe de fazer.
A questão dos royalties: de debate para guerra judicial
O que na versão 2025 eu chamei de "discussão válida sem resposta simples" virou guerra judicial com bilhões em jogo.
O campo de batalha
- O New York Times processou OpenAI e Microsoft. Em março de 2025, o juiz negou o pedido de arquivamento — o caso segue pra julgamento e deve ser o teste mais consequente sobre fair use em IA.
- A GEMA (sociedade de direitos autorais alemã) processou a OpenAI e ganhou em novembro de 2025 — letras de músicas usadas no treinamento eram reproduzidas quase identicamente nos outputs.
- Disney e NBCUniversal processaram a Midjourney em junho de 2025, chamando-a de "um poço sem fundo de plágio". Warner Bros. seguiu em setembro.
- A Anthropic ofereceu US$ 1,5 bilhão em acordo (~US$ 3.000 por autor para 500 mil autores afetados) — teria sido o maior pagamento por violação de copyright da história dos EUA. O juiz rejeitou, considerando insuficiente.
- Autores processaram a Apple por treinar o Apple Intelligence com material do dataset The Pile. A Encyclopaedia Britannica processou a Perplexity AI e depois a OpenAI.
O que os governos estão fazendo
- A União Europeia está na frente. O AI Act entrou em vigor em agosto de 2024, e desde agosto de 2025 obriga provedores de IA a publicar resumos dos dados de treinamento e respeitar o opt-out de mineração de dados. Multas: até 35 milhões de euros ou 7% do faturamento global.
- Nos EUA, o cenário é incerto. A ordem executiva de Biden sobre IA foi revogada no primeiro dia do governo Trump. O plano "Winning the Race" foca em desregulamentação — praticamente silencioso sobre copyright.
- Em março de 2026, a Suprema Corte dos EUA se recusou a ouvir recursos sobre copyright de IA — obras geradas exclusivamente por máquinas não são protegidas, mas obras com contribuição humana criativa podem ser.
O modelo de compensação ainda não existe
- A Shutterstock criou um fundo para contribuidores em parceria com a OpenAI.
- A Adobe posicionou o Firefly como "eticamente treinado" — mas depois descobriu-se que também usou imagens da Midjourney e concorrentes.
- O Deezer estima que 50 mil músicas geradas por IA são enviadas por dia, e que 70% dos streams dessas faixas são fraudulentos.
Se o trabalho de um artista alimenta um modelo que gera bilhões em receita, esse artista merece ser compensado. A tecnologia avança, mas os direitos autorais não podem ficar para trás.
Afinal, agora não precisa mais saber desenvolver?
Ferramentas de vibe coding — de v0 e Lovable em 2025 até o Codex agent e Claude Code em 2026 — geram código funcional a partir de prompts em linguagem natural. Agora, com agentes como o Codex da OpenAI e o Claude Cowork, nem precisa pedir passo a passo: você descreve o que quer e o agente planeja, implementa e testa sozinho. Muita gente olha pra isso e conclui: "não preciso mais aprender a programar".
Essa conclusão não poderia estar mais errada.
O que está acontecendo é uma nova camada de abstração — e isso é um padrão que se repete na história da computação:
- Cartões perfurados → Assembly: Saímos de papel furado para instruções legíveis por humanos. Ninguém mais perfura cartões, mas entender lógica de máquina continuou sendo essencial.
- Assembly → Linguagens de alto nível: Saímos de registradores e endereços de memória para PHP, Java, Python. O trabalho ficou mais produtivo, mas os melhores desenvolvedores ainda entendem o que acontece debaixo do capô.
- Código → Linguagem natural com IA: Agora descrevemos intenções em português e a IA gera o código. É a mesma transição. O nível de abstração subiu, mas a necessidade de fundamento técnico permanece.
Cada uma dessas transições democratizou o acesso e elevou o piso do que é possível construir. Mas nenhuma delas eliminou a necessidade de profissionais que entendem os fundamentos.
Quando você pede pra uma IA "criar uma API REST com autenticação", ela gera algo que funciona. Mas quem valida se a autenticação é segura? Quem identifica que o token não está sendo invalidado no logout? Quem percebe que o rate limiting está ausente e o serviço vai cair sob carga? Quem transforma código plausível em código confiável?
O desenvolvedor com base sólida.
A IA criou um nível mais humanizado de escrita de código. Conversamos com a máquina em linguagem natural, como sempre quisemos. Mas, assim como a transição de Assembly pra Java não eliminou a necessidade de entender lógica computacional, a transição de Java pra linguagem natural não elimina a necessidade de entender engenharia de software.
O que mudou é o perfil do profissional. Menos digitador de código, mais arquiteto de soluções. Menos executor, mais pensador crítico. A IA escreve o código — o desenvolvedor decide o que escrever, por que escrever e como validar que está correto.
O ecossistema técnico: ferramentas que estão moldando o futuro
Se você trabalha com desenvolvimento e quer usar IA de forma séria — não como brinquedo, mas como ferramenta de produção — precisa conhecer esses conceitos.
AGENTS.md: da promessa ao problema
A ideia parecia simples: colocar um arquivo AGENTS.md (ou CLAUDE.md, .cursorrules) na raiz do repositório com todas as convenções do projeto. O agente lê e "sabe" como trabalhar.
Na prática, virou um problema:
- Context window: Modelos têm limite de tokens (128K-200K). Um AGENTS.md de 2.000 linhas consome espaço que o modelo precisa pra ler e gerar código.
- Amplificação de alucinações: Instruções vagas ou contraditórias fazem o modelo inventar interpretações e seguir em frente com convicção.
- Obsolescência silenciosa: Instruções que copiam código ficam desatualizadas conforme o projeto evolui.
Por onde começar: Menos de 500 linhas. Convenções estáveis. Para conhecimento especializado, use Skills.
Skills: conhecimento sob demanda
Skills resolvem o problema do AGENTS.md com progressive disclosure: o agente vê apenas descrições curtas das skills disponíveis e carrega as instruções completas sob demanda.
Uma skill não é "só um .md" — pode incluir scripts executáveis, queries SQL, templates e referências carregadas sob demanda.
Por onde começar: Identifique o que seu time repete em onboarding e code reviews. Transforme em skills modulares.
Agentes: além do chat
Um agente recebe uma tarefa, planeja, executa ferramentas, observa resultados e itera até concluir. A diferença pro chat é autonomia — e o risco também.
Por onde começar: API do seu LLM com tool use. Tarefas bem definidas, ferramentas limitadas. Não dê autonomia demais cedo.
MCP: o USB-C dos agentes
O Model Context Protocol padroniza como aplicações de IA se conectam a sistemas externos. Um MCP server expõe tools, resources e prompts via JSON-RPC. Qualquer host compatível se conecta.
Por onde começar: npx @modelcontextprotocol/create-server. Uma tool simples. Conecte ao Claude Desktop.
RAG: conhecimento além do treinamento
Retrieval-Augmented Generation injeta conhecimento externo no prompt via busca semântica em documentos indexados. RAG e MCP são complementares: RAG busca conhecimento, MCP executa ações.
Por onde começar: LangChain ou LlamaIndex + pgvector sobre a documentação do seu projeto.
SDD: especificação como fonte da verdade
Spec-Driven Development — a especificação formal precede e governa toda implementação. O agente lê a spec e implementa, em vez de interpretar vagamente um ticket.
Por onde começar: Escreva specs claras antes de pedir pra IA implementar. Use a spec como referência no code review.
Harness e Fitness Functions: os guardrails
Código gerado por IA é probabilístico. Confiar cegamente no output é tão irresponsável quanto fazer deploy sem testes.
Fitness Functions (do livro Building Evolutionary Architectures, Neal Ford et al.) avaliam objetivamente características arquiteturais: cobertura de testes, segurança, complexidade, dependências.
AI Harness executa essas fitness functions contra o código gerado, permitindo o loop: gera → valida → falha → corrige → valida — sem intervenção humana para erros detectáveis.
Por onde começar: Levante as regras do seu code review. Transforme em fitness functions automatizadas.
Assistentes pessoais de IA: o agente que sai do IDE
Tudo que discutimos até aqui — agentes, MCP, skills, RAG — vive dentro do contexto de desenvolvimento. Mas em 2026, surgiu uma categoria que leva esses mesmos conceitos para a vida inteira: os assistentes pessoais de IA.
O exemplo mais representativo é o OpenClaw — um projeto open-source criado por Peter Steinberger (@steipete) que roda localmente na sua máquina e é acessível via WhatsApp, Telegram ou Discord. Não é um chatbot na nuvem. É um agente autônomo com acesso ao seu computador: arquivos, terminal, browser, APIs — tudo.
O que diferencia o OpenClaw de um ChatGPT ou Claude é o modelo operacional:
- Memória persistente — ele lembra do que você falou ontem, na semana passada, no mês passado. Contexto acumula entre sessões.
- Skills extensíveis — qualquer pessoa pode criar skills (fluxos reutilizáveis) que o agente aprende a usar. Ele até cria skills sozinho quando percebe uma necessidade recorrente.
- Heartbeats proativos — o agente te procura (via Telegram, por exemplo) quando tem algo relevante: um lembrete, um alerta, uma tarefa pendente. Ele não espera ser chamado.
- Execução real — limpa inbox, agenda reuniões, faz check-in de voo, controla dispositivos IoT, roda pipelines de código, abre PRs. Não é sugestão — é execução.
Um usuário descreveu assim: "É um modelo inteligente com olhos e mãos, sentado numa mesa com teclado e mouse. Você manda mensagem como se fosse um colega de trabalho e ele faz tudo que uma pessoa faria com aquele computador."
E aqui está o ponto crucial: o OpenClaw roda localmente. Seus dados, suas skills, sua memória — tudo na sua máquina. Num mundo onde toda big tech quer seus dados na nuvem, isso é uma declaração de princípio. É o equivalente a rodar Linux quando todo mundo usava Windows — você está no controle.
Projetos como o OpenClaw, o HubAI Nitro (que usamos internamente no PicPay) e outros assistentes corporativos mostram que o futuro não é um agente genérico na nuvem. É um agente personalizado, com conhecimento do seu contexto, rodando no seu ambiente, sob seu controle.
Por onde começar: Instale o OpenClaw numa máquina dedicada ou no seu Mac. Conecte ao Telegram. Comece pedindo coisas simples — lembretes, briefings matinais, consultas de calendário. Conforme confiança cresce, habilite mais integrações.
Testando os limites: o que ainda não funciona
Testando IAs no dia a dia profissional — de GPT-4o a Claude Opus 4.6, de Cursor a agentes autônomos — a conclusão que eu havia chegado em 2025 se mantém: só dá certo quando você sabe exatamente o que quer. Mas agora tenho um agravante.
O exemplo que mais me marcou: eu estava desenvolvendo um aplicativo de gestão de pelada — e a IA simplesmente não conseguiu implementar a funcionalidade de troca de times usando as regras que qualquer brasileiro conhece. Porque falta contexto cultural.
Como funciona uma pelada? Quem perde sai, quem tá esperando entra, o goleiro é fixo, se tem gente demais faz rodízio. Todo mundo sabe. Ninguém precisa explicar. Mas a IA não sabe — porque isso não está documentado em nenhum manual. É conhecimento tácito, transmitido na prática.
E isso vai muito além de código. Como funciona um self-service? Uma partida de truco em Minas? Oferecer café pras visitas? Levar lembrancinha no retorno de uma viagem? São coisas que ninguém precisa te explicar — você aprendeu vivendo. A IA não viveu nada. Ela processa texto, não experiência.
As limitações práticas
- Custo de energia absurdo — treinar e rodar esses modelos consome quantidades enormes de energia.
- Volume de tokens para tarefas pequenas — às vezes você gasta mais tempo pedindo pra IA do que faria manualmente.
- Alterações não solicitadas — a IA "ajuda" mudando coisas que você não pediu.
- O caso Klarna — apostou pesado em IA pra substituir atendentes, depois recuou contratando humanos de novo.
Os incidentes que ninguém esperava
E este é o alerta mais importante que surgiu no último ano. Em dezembro de 2025, engenheiros da AWS deixaram o Amazon Kiro resolver um problema sem supervisão. O agente decidiu que a melhor abordagem era deletar e recriar o ambiente. Resultado: 13 horas de indisponibilidade. Um segundo incidente com o Amazon Q Developer também causou disrupção. Em março de 2026, a divisão de e-commerce convocou uma reunião de emergência sobre uma "tendência de incidentes" envolvendo "mudanças assistidas por GenAI". O site da Amazon ficou fora do ar por quase 6 horas.
E não foi só a Amazon:
- Um usuário deu acesso ao Claude Code à sua infra AWS. O agente substituiu o state file do Terraform por uma versão antiga, executou
terraform destroye deletou um banco de produção com 2,5 anos de dados — incluindo os snapshots de backup. - O agente da Replit deletou um banco de produção durante um code freeze explícito, impactando dados de mais de 1.200 empresas.
- Um agente do Cursor em "Plan Mode" deletou 70 arquivos rastreados pelo git — ignorando uma instrução explícita de "NÃO EXECUTE NADA".
- Um desenvolvedor pediu ao agente pra "fazer os testes passarem". O agente deletou os arquivos de teste que falhavam.
O padrão é claro: o agente não estava com defeito. Ele estava cumprindo seu objetivo da forma mais eficiente que encontrou — e qualquer regra que você dê a ele é maleável dentro do seu loop de raciocínio. O problema real é que o escopo de ação não foi restringido fora do agente.
Após os incidentes, a Amazon implementou o que deveria ter existido antes: peer review obrigatório para mudanças assistidas por IA e restrição de permissões.
O impacto é amplo — e vai além do código
A IA não vai acabar com todas as profissões. Mas vai transformar profundamente como trabalhamos. O profissional que ignorar esse movimento vai ficar obsoleto.
- Para desenvolvedores: a IA vai automatizar o repetitivo. Mas quem só escreve código sem entender o problema já era substituível antes da IA. O desenvolvedor do futuro é um arquiteto que conversa com máquinas.
- Para artistas: a IA vai facilitar transformar esboços em artes finais detalhadas. O artista se torna diretor criativo, não operador de ferramenta.
- Para nutricionistas, advogados e outros: a IA pode transformar bases intelectuais em entregas de alta qualidade. O profissional ganha escala sem perder profundidade.
E existe uma questão pública que ainda não recebe a atenção devida: a geração de novos postos de trabalho. Toda revolução tecnológica criou mais empregos do que destruiu — mas o período de transição é brutal para quem não se adapta.
Conclusão: use IA como alavanca, não como muleta
A pergunta certa não é "a IA vai roubar meu emprego?" — é "o que eu faço que uma IA não consegue?"
Se a resposta for "nada" ou "não sei", esse é o sinal de alerta. Não pra entrar em pânico, mas pra investir em si mesmo. Desenvolver pensamento crítico, criatividade, capacidade de resolver problemas ambíguos — as habilidades que nenhum modelo estatístico replica.
A IA não acabou com a necessidade de fundamentos. Ela criou uma nova camada de abstração, assim como cada transição tecnológica antes dela. Quem tem a base sólida vai usar a nova ferramenta pra ir mais longe. Quem não tem, vai gerar código que compila mas não resolve.
Use a IA como forma de maximizar seu resultado, não como muleta. Quem entender isso vai surfar a onda. Quem não entender, vai ser engolido por ela.
Estamos com os dias contados?
Sim — os dias de fazer só o básico.
Versão 2026 do artigo original publicado em março de 2025. Leia a versão anterior para acompanhar a evolução do meu ponto de vista.
Diego Borges — @eudiegoborgs